基于采样的模型预测控制(MPC)优化方法,例如模型预测路径积分(MPPI),最近在各种机器人任务中显示出有希望的结果。但是,当所有采样轨迹的分布集中在高成本甚至不可行的区域中时,它可能会产生不可行的轨迹。在这项研究中,我们提出了一种称为Log-Mppi的新方法,配备了更有效的轨迹采样分布策略,从而显着改善了满足系统约束的轨迹可行性。关键点是从正常的对数正态(NLN)混合物分布中绘制轨迹样品,而不是从高斯分布中。此外,这项工作提出了一种通过将2D占用网格映射纳入基于采样的MPC算法的优化问题,从而在未知的混乱环境中无碰撞导航的方法。我们首先通过在不同类型的混乱环境以及Cartpole摇摆任务中对2D自主导航进行广泛的模拟,从而验证我们提出的控制策略的效率和鲁棒性。我们通过现实世界实验进一步证明了log-mppi在未知的杂物环境中执行基于2D网格的无碰撞导航的适用性,表明其优越性可用于局部成本量,而无需增加优化的额外复杂性问题。一个展示现实世界和仿真结果的视频可在https://youtu.be/_ugwqefjsn0上获得。
translated by 谷歌翻译
的可再生能源技术的迅速增长使微电网(MG)的概念被广泛接受的电力系统。由于直流配电系统的优势,如易集成储能和更少的系统损耗,DC MG如今吸引了显著的关注。如PI或PID线性控制器成熟,并通过功率电子工业中广泛使用,但作为系统参数改变它们的性能不是最佳的。在这项研究中,人工神经网络(ANN)的电压控制策略,提出了DC-DC升压转换器。在本文中,所述模型预测控制(MPC)是用来作为一个专家,其提供数据来训练ANN提出。作为ANN是微调,那么它被直接用于控制升压DC转换器。人工神经网络的主要优点在于,神经网络系统识别降低了系统模型的不准确性,即使不准确参数,并且具有相比MPC更少的计算负担,由于其平行结构。为了验证所提出的ANN的性能,广泛MATLAB / Simulink的仿真进行。仿真结果表明,基于人工神经网络控制策略已根据不同的负载条件比较PI控制器更好的性能。经训练的神经网络模型的准确度是约97%,这使得它适合用于DC微电网的应用程序。
translated by 谷歌翻译
模型预测控制(MPC)由于其简单的概念,快速动态响应和良好的参考跟踪,已在功率电子设备中广泛使用。但是,它遭受了参数不确定性的困扰,因为它直接依赖于系统的数学模型来预测在下一个采样时间将使用的最佳切换状态。结果,不确定的参数导致了未设计的MPC。因此,本文根据人工神经网络(ANN)提供了无模型的控制策略,以减轻参数不匹配的影响,同时对逆变器的性能产生一些负面影响。该方法包括两个相关阶段。首先,MPC用作专家来控制研究的转换器以提供数据集,而在第二阶段,将获得的数据集用于训练拟议的ANN。此处的案例研究基于一个四级三电池飞行电容器逆变器。在这项研究中,使用各种操作条件,使用MATLAB/SIMULINK来模拟所提出方法的性能。之后,与常规MPC方案相比,报告了仿真结果,这证明了拟议控制策略的出色性能在鲁棒性上针对参数不匹配和低谐波失真(THD),尤其是在系统参数中发生变化时,比较了传统的MPC。此外,根据使用C2000TM-Microcontroller-launchpadxl TMS320F28379D套件提供了基于硬件(HIL)仿真的实验验证,以证明基于ANN的控制策略的适用性,以在A上实施,以在A上实现。 DSP控制器。
translated by 谷歌翻译
在本文中,我们开辟了基于路径积分(PI)最优控制理论的可视伺服系统的新途径,其中可以将非线性部分微分方程(PDE)转换为使用Feynman的所有可能的轨迹的期望-KAC(FK)引理。更精确地,我们提出了基于采样的模型预测控制(即,模型预测路径积分(MPPI)控制)算法,提出了MPPI-VS控制策略,实时和无反转控制策略(即,模型预测路径积分(MPPI)控制)算法 - 基于,3D点和基于位置的可视伺服技术,考虑到系统约束(例如可见性,3D和控制约束)以及与机器人和相机模型相关联的参数不确定性以及测量噪声。与经典的视觉伺服控制方案相反,我们的控制策略直接利用交互矩阵的近似,而无需估计交互矩阵反转或执行伪反转。我们在带有引导摄像机的6-DOF笛卡尔机器人上验证MPPI-VS控制策略以及基于图像平面中的四个点作为视觉特征的常规摄像机。与经典计划相比,更好地评估和展示所提出的控制策略的鲁棒性和潜在优势,进行了各种操作条件下的密集模拟,然后讨论。所获得的结果证明了所提出的方案在容易与系统限制中应对的有效性和能力,以及在相机参数和测量中存在大误差的鲁棒性。
translated by 谷歌翻译
For augmentation of the square-shaped image data of a convolutional neural network (CNN), we introduce a new method, in which the original images are mapped onto a disk with a conformal mapping, rotated around the center of this disk and mapped under such a M\"obius transformation that preserves the disk, and then mapped back onto their original square shape. This process does not result the loss of information caused by removing areas from near the edges of the original images unlike the typical transformations used in the data augmentation for a CNN. We offer here the formulas of all the mappings needed together with detailed instructions how to write a code for transforming the images. The new method is also tested with simulated data and, according the results, using this method to augment the training data of 10 images into 40 images decreases the amount of the error in the predictions by a CNN for a test set of 160 images in a statistically significant way (p-value=0.0360).
translated by 谷歌翻译
在整个计算科学中,越来越需要利用原始计算马力的持续改进,通过对蛮力的尺度锻炼的尺度增加,以增加网状元素数量的增加。例如,如果不考虑分子水平的相互作用,就不可能对纳米多孔介质的转运进行定量预测,即从紧密的页岩地层提取至关重要的碳氢化合物。同样,惯性限制融合模拟依赖于数值扩散来模拟分子效应,例如非本地转运和混合,而无需真正考虑分子相互作用。考虑到这两个不同的应用程序,我们开发了一种新颖的功能,该功能使用主动学习方法来优化局部细尺度模拟的使用来告知粗尺度流体动力学。我们的方法解决了三个挑战:预测连续性粗尺度轨迹,以推测执行新的精细分子动力学计算,动态地更新细度计算中的粗尺度,并量化神经网络模型中的不确定性。
translated by 谷歌翻译
基于注意力的神经网络在许多AI任务中都普遍存在。尽管其出色的算法性能,但注意力机制和前馈网络(FFN)的使用仍需要过多的计算和内存资源,这通常会损害其硬件性能。尽管已经引入了各种稀疏变体,但大多数方法仅着重于缓解算法级别上的二次注意力缩放,而无需明确考虑将其方法映射到真实硬件设计上的效率。此外,大多数努力仅专注于注意机制或FFN,但没有共同优化这两个部分,导致当前的大多数设计在处理不同的输入长度时缺乏可扩展性。本文从硬件角度系统地考虑了不同变体中的稀疏模式。在算法级别上,我们提出了Fabnet,这是一种适合硬件的变体,它采用统一的蝴蝶稀疏模式来近似关注机制和FFN。在硬件级别上,提出了一种新颖的适应性蝴蝶加速器,可以在运行时通过专用硬件控件配置,以使用单个统一的硬件引擎加速不同的蝴蝶层。在远程 - ARENA数据集上,FabNet达到了与香草变压器相同的精度,同时将计算量减少10到66次,参数数量为2至22次。通过共同优化算法和硬件,我们的基于FPGA的蝴蝶加速器在归一化到同一计算预算的最新加速器上达到了14.2至23.2倍的速度。与Raspberry Pi 4和Jetson Nano上优化的CPU和GPU设计相比,我们的系统在相同的功率预算下的最大273.8和15.1倍。
translated by 谷歌翻译
本文提议使用修改的完全连接层转移初始化,以进行1900诊断。卷积神经网络(CNN)在图像分类中取得了显着的结果。但是,由于图像识别应用程序的复杂性,培训高性能模型是一个非常复杂且耗时的过程。另一方面,转移学习是一种相对较新的学习方法,已在许多领域使用,以减少计算来实现良好的性能。在这项研究中,Pytorch预训练的模型(VGG19 \ _bn和WideresNet -101)首次在MNIST数据集中应用于初始化,并具有修改的完全连接的层。先前在Imagenet中对使用的Pytorch预培训模型进行了培训。提出的模型在Kaggle笔记本电脑中得到了开发和验证,并且在网络培训过程中没有花费巨大的计算时间,达到了99.77%的出色精度。我们还将相同的方法应用于SIIM-FISABIO-RSNA COVID-19检测数据集,并达到80.01%的精度。相比之下,以前的方法在训练过程中需要大量的压缩时间才能达到高性能模型。代码可在以下链接上找到:github.com/dipuk0506/spinalnet
translated by 谷歌翻译
这项研究是有关阿拉伯历史文档的光学特征识别(OCR)的一系列研究的第二阶段,并研究了不同的建模程序如何与问题相互作用。第一项研究研究了变压器对我们定制的阿拉伯数据集的影响。首次研究的弊端之一是训练数据的规模,由于缺乏资源,我们的3000万张图像中仅15000张图像。另外,我们添加了一个图像增强层,时间和空间优化和后校正层,以帮助该模型预测正确的上下文。值得注意的是,我们提出了一种使用视觉变压器作为编码器的端到端文本识别方法,即BEIT和Vanilla Transformer作为解码器,消除了CNNs以进行特征提取并降低模型的复杂性。实验表明,我们的端到端模型优于卷积骨架。该模型的CER为4.46%。
translated by 谷歌翻译
时间序列数据收集之间的因果发现可以帮助诊断症状的原因,并希望在发生故障之前防止故障。然而,可靠的因果发现可能非常具有挑战性,特别是当数据采集率变化(即,不均匀的数据采样)时,或在存在丢失的数据点(例如,稀疏数据采样)时。为了解决这些问题,我们提出了一个由两个部分组成的新系统,第一部分填充了具有高斯进程回归的缺失数据,第二部分利用了回声状态网络,即储层计算机(即,用于混沌的类型系统建模)对于因果发现。我们评估我们提出的系统对其他三个现成的因果发现算法的性能,即结构期望 - 最大化,子采样的线性自动回归绝对系数,以及使用田纳西州伊斯曼的传染媒介自回归的多变量格兰杰因果关系化学数据集;我们报告了它们对应的Matthews相关系数(MCC)和接收器操作特征曲线(ROC),并表明所提出的系统优于现有的算法,展示了我们在缺失条目中发现复杂系统中的因果关系的可行性。
translated by 谷歌翻译